Discussion:Perceptron multicouche

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

perceptron multi-couches et rétropropagation du gradient de l'erreur[modifier le code]

Dans l'article, il est indiqué qu'un MLP avec une rétro-propagation du gradient de l'erreur implique que chaque neurone d'une couche est connecté à tous les neurones de la couche suivante. C'est le modèle le plus répandu, mais je ne crois pas qu'il soit obligatoire d'avoir cette connexité complète pour un MLP avec backprop.

En pratique, dans de nombreuses librairies comme FANN, on peut définir un taux de connexions entre les couches, permettant de définir la proportion de connections entre un neurone et les neurones de la couche suivante. En outre, si on applique un algo de type optimal brain damage, qui va supprimer des connections, à un MLP, cela signifierait qu'on obtiendrait autre chose qu'un MLP?

Pour moi la connexité complète entre deux couches n'est pas obligatoire. Le caractère essentiel du MLP c'est bien sa construction mutlicouches et la propagation de l'influx en "feedforward". Quand à la backprop, elle ne modifie pas la nature du MLP, mais décrit simplement la méthode d'apprentissage qui permet de régler les poids synaptiques en fonction du gradient de l'erreur.

Exacte, c'est une erreur ! Je t'enjoins à corriger l'article si tu à le temps :). Merci de l'avoir relevé. D Cat laz (discuter) 3 octobre 2022 à 14:54 (CEST)[répondre]